首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Goose:免费开源的本地化AI编程助手

    Goose:免费开源的本地化AI编程助手,挑战Claude Code每月200美元的高昂费用人工智能编程革命伴随一个显著问题:成本高昂。 Block如何构建一款可离线工作的免费AI编程代理Goose解决同一问题的方法截然不同。Goose由某支付公司Block开发,工程师称之为"机器上AI代理"。 Goose能做而传统代码助手不能做的事情Goose作为命令行工具或桌面应用程序运行,可以自主执行复杂的开发任务。 Goose与Cursor、GitHub Copilot以及付费AI编程市场的比较Goose进入了一个拥挤的AI编程工具市场,但占据了独特的位置。 AI编程工具每月200美元的时代可能即将结束AI编程工具市场发展迅速。开源模型正以不断缩小与专有替代品差距的速度改进。

    47510编辑于 2026-03-11
  • 来自专栏JavaEdge

    使用Dify快速搭建AI Agent智能助手应用

    1 定义 智能助手Agent Assistant),利用LLM的推理能力,自主对复杂的人类任务进行目标规划、任务拆解、工具调用、过程迭代,在无人类干预的情况下完成任务。 2 咋用智能助手? 选择智能助手的推理模型,智能助手的任务完成能力取决于模型推理能力,建议用Agent时选择推理能力更强的模型系列如 gpt-4,以获得更稳定的任务完成效果。 Dify提供: 内置工具 自定义工具,支持 OpenAPI / Swagger 和 OpenAI Plugin 规范 意义 允许用户借助外部能力,创建更强大 AI 应用。 calling 的模型系列,支持了 ReAct 推理框架实现类似效果 Agent设置中,可修改助手的迭代次数限制: ReAct 模式: Function Calling 模式: 2.3 配置对话开场白 为Agent配置一套会话开场白和开场问题,配置的对话开场白将在每次用户初次对话中展示: 助手可完成啥样任务 可提出的问题示例 2.4 文件上传 部分多模态 LLM 原生支持处理文件,如 Claude

    1.7K11编辑于 2025-06-01
  • 来自专栏AI

    AI Agent实战:基于ReAct与FunctionCalling构建本地编程助手

    摘要:本文通过一个从零构建的本地编程助手Agent项目,详解FunctionCalling如何与ReAct(推理-行动)模式协同工作,实现大模型对文件系统的增删改查操作。 本文不探究技术层面以外的影响,这系列博客目标是个人AI转型期间的所有经验积累,因此言归正传,回到主题:FunctionCalling理解。 (因为是编程助手,所以核心就是文件夹、文件的增删改查),大模型从想到干完成的方式是基于ReAct模式通过FunctionCalling调用具体实现函数来实现。 # main.py """ 主程序入口 启动编程助手 Agent,接收用户输入,运行 ReAct 循环完成文件操作任务 """ from do_exec_react import run_react_loop def main(): """ 主函数:启动交互式命令行界面 """ print(" 欢迎使用本地编程助手 Agent") #print("输入您的需求,例如

    26310编辑于 2026-03-03
  • 来自专栏学习之旅

    【软件】AI Agent:无需电脑的手机自动化助手AutoGLM

    Android第三步:授予必要权限第四步:配置模型服务第五步:开始使用使用教程基本操作任务示例大全高级功能使用技巧常见问题Shizuku 相关权限相关操作相关模型相关前言前段时间智谱发布了手机自动化AI Agent——Open-AutoGLM,但是部署过程非常麻烦。 配置项值Base URLhttps://open.bigmodel.cn/api/paas/v4Modelautoglm-phoneAPI Key在 智谱 AI 开放平台 获取备选配置(ModelScope 第五步:开始使用在主界面输入任务描述,如:"打开微信,给文件传输助手发送消息:测试"点击「开始任务」按钮悬浮窗会自动弹出,显示执行进度观察 AI 的思考过程和执行操作 缺点是不能语音交互,只能输入文字 之后可在配置列表中快速切换创建任务模板:将常用任务保存为模板,一键执行:进入「设置」→「任务模板」点击「添加模板」输入模板名称和任务描述在主界面点击模板按钮快速选择自定义系统提示词:针对特定场景优化 AI

    2.9K02编辑于 2026-01-04
  • 来自专栏程序小小事

    JetBrains IDEs GO AI:最新coding agent,更智能的编程助手

    从 2025.1 版本开始,每个开发者都能使用 JetBrains IDE 中的 AI 功能! 最新的编码代理 Junie,会和AI Assistant一起,为我们的AI编程添砖加瓦! JetBrains AI Assistant 最新的 JetBrains AI assistant有2个模式。 Edit模式:等同cursor的manual模式,这里会修改代码,需要用户确认 Chat模式:等同cursor的Ask模式,可以任意对话 那 JetBrains AI assistant 的agent去哪里了 的思考与创作过程 输入提示词后,Claude 3.7开始按照要求步骤工作: 核心功能设计:首先作为产品经理,设计出包括用户系统、智能搜索、支付、出行助手等功能模块 UI设计思路:确定设计风格(简洁现代、 或许Junie + AI Assistant 是你不错的选择! 基于 AI 的开发工具在我们的行业中以惊人的速度发展。这一切都不可避免! 现在,我们要做的事是拥抱AI,克服AI带来的挑战!

    61910编辑于 2025-04-24
  • 腾讯云 AI 代码助手AI Agent 构建企业新一代研发范式

    文章摘要本文将探讨腾讯云 AI 代码助手在聚焦产品开发领域的同时基于扩展性能力集成接入用户业务需要 AI Agent 智能体应用完成 SDLC 全过程的衔接完成新一代研发范式落地的解决方案。 智能体进赋能自身业务、科技等领域进行加速推进创新, AI Agent 智能体以其自主性、智能性和协作性,为企业带来了全新应用场景,从科技领域而言企业研发模式正经历着一场革命性的变革,腾讯云 AI 代码助手是基于腾讯混元代码大模型作为大脑中枢建立的 腾讯云 AI 代码助手 Extensions 腾讯云 AI 代码助手 Extension 是一个标准扩展的机制,通过 SDK 和标准接入规范按照自身的场景诉求进行扩展其他的能力, Extensions AI Agent 在 DevOps 场景的应用腾讯云 AI 代码助手内置 Extension 标准扩展的机制,通过该机制规范可以进行特性业务场景诉求的扩展和智能化能力聚合, Extension 扩展能力的业务承载表现就是与对话进行交互通过快捷指令的方式进行落地包含类似 总结AI Agent 智能体的发展为企业研发带来了新的机遇。腾讯云 AI 代码助手 Extension 正是这一技术发展的产物,它不仅提升了研发团队的生产力,也为企业创新提供了强有力的支持。

    1.3K10编辑于 2024-12-06
  • 【标题】Agent智能体实战:如何用CoT提示工程打造自主AI助手

    #Agent智能体实战:如何用CoT提示工程打造自主AI助手? 摘要:本文深度剖析Agent智能体与Chain-of-Thought(CoT)提示工程的融合实践,通过真实项目案例揭示构建自主AI助手的核心技术路径。 读者将掌握从环境搭建到生产部署的完整方法论,获得可立即应用于实际业务的Agent开发能力,彻底解决传统AI助手逻辑断裂、依赖人工干预的痛点。特别适合AI工程师、产品经理及技术决策者深度实践参考。 如果您正被AI助手的“弱智时刻”困扰,本文提供的可执行框架将直接转化为您的技术红利。 ,MessagesPlaceholderdefbuild_base_agent(llm):#定义Agent核心提示模板system_prompt=("你是一个专业AI助手,必须通过分步推理解决问题。""

    17310编辑于 2026-01-24
  • 语音助手阿拉伯语本地化技术解析

    语音助手阿拉伯语本地化技术解析阿拉伯语版语音助手于2021年12月在沙特阿拉伯和阿联酋推出。与所有新语言版本一样,阿拉伯语在语音识别、语言理解和语音合成方面提出了独特挑战。 技术演进方向新的语音助手语言不仅是新语言,更是针对特定地区的新本地化版本。技术团队将继续扩展阿拉伯语到更多地区,同时将系统扩展到全新的语系家族。

    44210编辑于 2025-08-22
  • 来自专栏AI大模型应用开发炼丹房

    Cherry Studio+Filesystem MCP Server:本地化AI文件助手的架构设计与实战

    更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。一、技术架构核心​​1. Cherry Studio客户端​​ 国产化AI桌面客户端,提供以下核心能力:​​多模型调度​​:支持OpenAI/Gemini/Anthropic等云服务、网页端AI(Claude/Perplexity 助手创建流程​​使用预设助手模板创建新助手重命名为"智能文件助手"设置系统提示词明确路径规范: "用户桌面路径:C:\Users\yuan_\Desktop,下载目录:C:\Users\yuan_\Downloads :专用写作助手+文件助手联动此方案成功解决了Claude Desktop的国内访问限制问题,同时通过模块化设计实现了企业级文件操作安全管控。 在这场波澜壮阔的文明跃迁中,主动拥抱AI时代,就是掌握打开新纪元之门的密钥,让每个人都能在智能化的星辰大海中,找到属于自己的航向。

    1.8K10编辑于 2025-07-22
  • 【Multi-agent】智能科研助手实战项目

    从 0 组建你的 AI 科研小队:Multi-Agent 帮你做文献调研 + 实验规划✍ 前言很多科研工作者肯定都吐槽过:「文献太多看不完、实验方案想不清楚、写总结又很痛苦。」 但反过来想:这些事情,其实都可以拆成一堆「标准化的小任务」,非常适合交给 Multi-Agent AI 科研小队 来做。 2.1 初始化 LLM代码语言:python AI 代码解释:创建一个基础的 AzureChatOpenAI LLM,用于所有 Agent。 代码语言:python AI 代码解释:只挂一个 arxiv 工具,让这个 Agent 专门负责“查文献”。 代码语言:python AI 代码解释:Supervisor 只能通过 Tools 调用子 Agent,自行规划步骤。

    57810编辑于 2025-11-22
  • 来自专栏服务端技术杂谈

    AI Agent搭建

    一个普遍的误区是,认为工具越多Agent能力越强,但其实这会给Agent有限的上下文与决策系统带来巨大的认知负荷。 正确的思路是,少即是多。 这本质上,是将部分Agent的规划责任,前置到工具的设计当中,是一种责任转移的思路。 当工具库膨胀之后,命名混乱与功能重叠,会让Agent无所适从,通过命名空间来组织工具。 结构化命名,相当于为Agent提供了一张清晰的地图,帮助在正确的场景下,快速定位合适的工具。 同样,工具返回给Agent的内容质量,远比数量更重要。 因为Agent比人类更擅长理解的的内容,也是人类可读的、具有意义的文本,这些高质量内容,可以显著降低Agent在检索任务中的幻觉。 Agent与工具的交互,本质上是一个持续对话场景。 用户对话意图; 2、双层检索:根据意图识别中生成的意图,采用双层检索,使用意图匹配和语义内容来查找历史相似性对话和客服回复生成最优候选示例; 3、回复生成:根据双层检索结果作为few-shot,结合用户和助手意图

    22410编辑于 2026-03-11
  • 来自专栏白话互联

    Ai AgentAi Agent News | 9月11日速递

    今天是9月11日星期四,让我们一起来看看今天 Ai Agent 带来的 AI 领域的重要动态吧! *角色定义*:明确AI Agent在企业中的定位和职责 *数据整合*:确保AI Agent能够访问高质量的相关数据 *行动规划*:设计Agent能够执行的具体任务和流程 *反馈机制*:建立持续学习和优化的闭环系统 ❤ Indeed Unveils AI Agents for Job Seekers and Recruiters 求职招聘领域迎来AI助手新时代 Indeed推出了两款AI Agents,分别面向求职者和招聘方 AI Agent时嵌入运行时安全,为AI原生开发提供更可靠的安全保障。 文章提到,代理式AI应用正在兴起,例如德勤的Zora AI Agent和普华永道的Agent OS平台正在重塑内部工作流程。

    32110编辑于 2025-09-17
  • 来自专栏AI技术应用

    AI本地化部署的流程

    AI本地化部署(On-Premise AI Deployment)的流程是一个系统性、多阶段的过程,旨在将AI模型及其所有相关组件(数据、基础设施、应用程序)部署在企业自己的数据中心或边缘设备上。 以下是AI本地化部署的详细流程:阶段一:规划与需求定义 (Planning & Requirement Definition)项目启动与目标明确:明确业务目标: AI智能体或模型将解决什么具体业务问题? 软件许可证与成本: 评估操作系统、虚拟化软件、数据库、AI框架等的许可费用。团队技能评估: 识别当前团队在AI、DevOps、运维方面的技能缺口。 阶段四:AI服务化部署 (AI Servitization & Deployment)构建推理服务:API开发: 为AI模型创建RESTful API或gRPC接口,作为模型推理的入口。 AI本地化部署是一个长期的过程,需要企业持续投入资源进行优化、维护和迭代。

    1.5K10编辑于 2025-06-06
  • 来自专栏AI技术应用

    AI本地化部署的优势

    AI本地化部署(On-Premise AI Deployment)指的是将AI模型、数据、基础设施和相关应用程序全部部署在企业自己的服务器、数据中心或边缘设备上,而不是依赖于第三方云服务提供商。 所有敏感数据和AI模型都在企业自己的防火墙内处理和存储,数据从不离开企业控制范围,极大地降低了数据泄露和滥用的风险。 本地化部署是满足这些合规性要求的关键。物理安全控制: 企业可以对其数据中心进行物理安全控制,包括访问控制、监控、防火防盗等,提供比云服务更精细化的物理安全保障。 优化硬件利用率: 可以根据特定AI模型的计算特性,精确配置和优化硬件资源,实现更高的硬件利用率和计算效率。3. 总结AI本地化部署的优势主要体现在数据主权、安全性、性能、低延迟、长期成本控制以及高度的定制化和集成能力。这些优势使得它成为许多对安全、性能和合规性有严苛要求的企业或特定行业应用场景的首选方案。

    1.7K11编辑于 2025-06-06
  • 来自专栏C语言

    AI】Chat or Agent

    随着生成式AI技术的不断进步,关于其未来发展方向的讨论也愈发激烈。究竟生成式AI的未来是在对话系统(Chat)中展现智慧,还是在自主代理(Agent)中体现能力?这一问题引发了广泛的讨论和探索。 多模态对话系统 2.1 语音交互 对话系统将整合语音识别和生成技术,使用户能够通过语音与AI进行对话,同时AI可以通过语音反馈,提供更加自然的交互体验。 4.2 教育 对话系统可以作为教学助手,解答学生疑问,提供学习建议,并根据学生的学习进度和兴趣定制个性化的学习计划。 二、自主代理(Agent)的发展方向 1. 自主决策和执行能力 1.1 环境感知 自主代理通过传感器和数据分析,实时感知周围环境的变化,从而做出适应性决策。 伦理与政策 随着生成式AI的广泛应用,伦理问题和政策法规将变得越来越重要。如何确保AI的公平性、安全性和隐私保护,将是未来发展的重要课题。 总的来说,生成式AI的未来充满了无限可能。

    36810编辑于 2024-12-11
  • 来自专栏AI技术应用

    AI大模型本地化部署

    AI大模型本地化部署是将大规模人工智能模型(如GPT、LLaMA、DeepSeek等)部署到本地服务器或设备上,以满足数据隐私、安全性和性能需求的过程。 以下是AI大模型本地化部署的关键步骤、技术难点及解决方案。一、本地化部署的关键步骤1.需求分析与规划 明确应用场景(如智能客服、文本生成、图像识别等)。评估本地硬件资源(GPU、内存、存储)和预算。 3.数据隐私与安全难点:本地化部署需确保数据隐私和合规性。解决方案:采用私有化部署方案,避免数据外传。4.部署复杂性难点:从硬件调试到模型优化,流程复杂。 企业级应用:浪潮计算机推出“推理一体机”,支持多行业快速部署AI能力。五、未来趋势软硬协同:更多“开箱即用”的一体化解决方案将涌现。国产化适配:国产AI算力和模型(如DeepSeek)将加速普及。 通过以上步骤和解决方案,AI大模型本地化部署可以更好地满足行业需求,推动AI技术的广泛应用。

    3.7K10编辑于 2025-03-08
  • 来自专栏AI技术应用

    AI大模型的本地化部署

    AI大模型的本地化部署,是将原本在云端运行的大型人工智能模型,转移到本地的硬件设备上运行。这种部署方式,在数据隐私、网络延迟、成本控制等方面,都有着重要的意义。 以下是关于AI大模型本地化部署的一些关键方面。1. 本地化部署的优势:数据隐私: 本地部署可以最大限度地保护敏感数据,避免数据在传输和存储过程中泄露的风险。 安全问题: 本地化部署需要注意本地设备的安全,防止模型被恶意使用。3. 本地化部署的关键技术:模型量化: 通过降低模型的精度,减小模型的大小,提高运行速度。 本地化部署的应用场景:智能手机: 图像识别、语音识别、自然语言处理等。智能家居: 语音助手、智能安防、智能控制等。工业自动化: 质量检测、故障预测、智能控制等。 总而言之,AI大模型的本地化部署,是一项具有挑战性但也充满机遇的技术。随着硬件资源的不断提升和模型优化技术的不断发展,本地化部署的应用前景将更加广阔。

    1.6K10编辑于 2025-03-10
  • 来自专栏AI技术应用

    AI 本地化部署的详细方案

    AI 本地化部署(On-Premise AI Deployment)指的是将 AI 模型、数据、基础设施和相关应用程序部署在企业自己的服务器、数据中心或边缘设备上,而不是依赖于第三方云服务提供商。 以下是 AI 本地化部署的详细方案:一、前期规划与需求分析明确用例和目标: 部署哪个 AI 模型(LLM、CV 模型、推荐系统等)? 解决什么业务问题? 期望的性能指标(延迟、吞吐量、准确性)? 软件许可(操作系统、虚拟化、AI 框架)成本。 人力资源(AI 工程师、运维工程师、数据科学家)成本。 现有 IT 基础设施的兼容性。 本地化部署的优缺点:优点: 数据隐私和安全性: 数据不离开企业防火墙,满足严格的合规性要求。 完全控制: 对硬件、软件和 AI 环境拥有完全控制权,可深度定制。 AI 本地化部署是一个复杂的项目,但对于那些拥有敏感数据、严格合规要求和强大 IT 基础设施的企业来说,它提供了无与伦比的控制力、安全性和定制化能力。

    4.2K10编辑于 2025-06-06
  • 来自专栏AI技术应用

    AI大模型的本地化测试

    AI大模型本地化测试是确保模型在本地环境中能够正常运行、满足性能要求并符合预期功能的关键步骤。以下是AI大模型本地化测试的详细流程和方法。 六、实际案例1.DeepSeek本地化测试:在医疗场景中,测试DeepSeek模型的病历翻译和临床辅助决策功能。验证模型在高并发请求下的稳定性和响应速度。 2.Llama本地化测试:测试Llama模型在本地设备上的推理性能。检查模型对多语言输入的处理能力。通过以上测试流程和方法,可以确保AI大模型在本地化部署后能够稳定、高效地运行,并满足实际应用需求。

    62700编辑于 2025-03-08
  • 来自专栏自然语言处理

    构建AI Agent的完整实战指南:从邮件助手案例看6步落地方法

    下面是对Langchian关于How to Build an Agent文章的翻译,原文可查看 https://blog.langchain.com/how-to-build-an-agent/? 构建 Agent 的分步流程图 第一步:用示例明确 Agent 的目标任务 选择切实可行且需要 Agent 来完成的任务。 挑选一个你能教会聪明实习生的任务。 在传统软件更适用时使用 Agent(例如,逻辑简单、固定且已在其他地方实现)。Agent 通常速度慢、成本高,有时还不太稳定。如果传统软件就能完成任务,直接用传统软件就好! LangGraph Platform 允许你通过一键部署快速上线、扩展和管理你的 Agent。 监控人们如何实际使用你的 Agent。 示例:构建邮件 Agent 部署邮件 Agent 后,我们可能会通过监控流量和常见用例发现一些尚未解决的用例。 这些新出现的模式预示着扩展范围的机会。

    93310编辑于 2025-07-19
领券